moe

大模型推理,得讲性价比

如今,后发优势再一次来到了大洋此岸,以华为为代表的中国科技企业,纷纷提出对MoE架构的优化重组方案。尤其是华为的MoGE架构,不仅克服了MoE负载不均衡及效率瓶颈的弊病,还能够降本增效,便于训练和部署。

模型 性价比 推理 moe moe模型 2025-06-06 18:39  8

2025从DeepSeek到品牌跃迁AI之于品牌的机遇与挑战

2025年,人工智能技术迭代升级,DeepSeek以MoE混合架构与动态训练算法,实现大模型性能与能效比指数级提升,开启“普惠智能”新纪元。其开源生态深度构建,将智能能力以标准化API、行业解决方案等形态注入千行百业,重塑行业规则,推动AI深度渗透产品创新、用

模型 品牌 开源 deepseek moe 2025-06-06 14:11  8

中信建投 | 华为发布Pangu Ultra MoE 模型中文技术报告

华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,披露了模型的细节,其核心突破在于实现了“全栈国产化”——完全基于昇腾AI计算平台训练,参数量达7180亿,是中国首个自主可控的超大规模稀疏混合专家模型(MoE)。这一成果标志

ultra moe pangu ultramoe 2025-06-04 13:48  6

中国AI又迭代了吗

5月底,DeepSeek-R1模型完成一次版本迭代,这次“小更新”引发了大量关注,测评显示,其整体性能逼近目前顶级模型OpenAI o3和谷歌Gemini 2.5-Pro。

gemini 推理 r2 moe 盘古 2025-06-03 14:08  8

腾讯辟谣微信已读及访客功能;禁用Cursor等第三方AI开发工具后,字节内部再发通知;宇树回应更名“股份有限公司” | Q资讯

微信推出“朋友圈访客”和“已读”功能?Cursor 等第三方 AI 开发工具后,员工争议不断,字节内部再发通知致歉 ;英伟达 2026 财年 Q1 财报:营收同比增长 69%;宇树回应更名“股份有限公司”;百度回应支付李彦宏私人飞机费用京东外卖“百亿补贴”规则

微信 腾讯 字节 moe cursor 2025-06-01 10:33  6

华为,重大突破!

5月30日,证券时报·券商中国记者从华为获悉,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。同时,华为发布盘古Ultra MoE模型架构和训练方法

华为 deepseek moe 盘古 moe模型 2025-05-31 03:00  10